盖世汽车 吴宇2026-04-22
盖世汽车获悉,自变量机器人于日前正式发布了新一代机器人进家庭计划:一个月后,搭载其新一代自研具身智能基础模型WALL-B的机器人,将首批入驻真实家庭,开启机器人服务家庭生活的成长之旅。
在此之前,自变量通过与58同城合作,已经将搭载了其 WALL-AS 模型的机器人送入真实家庭,与保洁阿姨协同作业,实现全球首次机器人进入家庭,并服务人类复杂的家居生活。据悉,这也是机器人首次在C端复杂环境的大规模落地。

图片来源:自变量机器人
此次新发布的WALL-B,最大的亮点之一,在于将视觉、语言、动作、物理预测等所有能力,放在同一个网络中从零开始联合训练、融为一体,从而很好地消除模块间的边界和数据搬运损耗。
基于这一架构,WALL-B实现了三项区别于行业现有模型的核心技术特征:
第一,原生多模态。 WALL-B 从训练第一天起,即对视觉、听觉、语言、触觉、动作等多模态数据进行同步标注与联合训练,实现“多模态进、多模态出”。这意味着模型不需要通过“传话”的方式在不同模块间转译信息——它看到杯子的同时就已经在准备伸手,感觉到重量的同时就已经在调整力度。
不仅如此,WALL-B 无需持续观察自身全身或依赖大量外部传感器,即可内在地感知自身的空间尺寸,如高度、宽度、手臂伸展范围,并判断能否通过某个空间或触及某个物体。这是一种内生的空间感知能力,而非通过外部测量或建模获得。
第二,物理世界的“世界观”。 WALL-B 能够感知并预测重力、惯性、摩擦力、速度等基本物理规律。在从未见过的场景中——例如一个盘子一半悬空在桌沿外——模型可以推断出盘子掉落摔碎,从而采取预防动作。
第三,与世界交互并自我进化。 目前主流机器人在任务失败后通常直接停止,返回错误信息,无法从失败中学习。WALL-B 的行为模式则完全不同:它在失败后会调整策略再次尝试,如果成功,则将这次成功的经验直接更新到模型参数中。
值得关注的是,机器人进入家庭的同时,隐私问题亦不容回避,对此自变量也给出了明确的解决方案:
视觉脱敏:机器人在设备端对原始图像进行实时打码处理,原始图像不离开设备,机器人看到的已经是去除个人特征的场景数据;
透明授权:用户主动按下同意键后方可开机,不存在“默认同意”,用户不同意则不开机;
用途限定:绝不共享第三方,机器人只认一个主人,发现可疑指令立即锁定。
Mina

Mina


全球视野,中国声音,快来体验吧